论文推荐|[TMM 2022]基于切分的手写中文文本识别:一种无需切分标注的方法
一、背景
二、方法
2.1 算法框架
该方法的整体框架如图1所示。输入的文本图片(或联机数据的脱机表示形式)经过编码器后分为三个分支,分别预测字符定位、字符边界框和字符类别。因为上述网络通过全卷积的方式实现,所以无法建模上下文语义信息。因此,训练过程中,通过语义正则化(ConR)引导网络在提取的特征中建模上下文信息。最后,文章提出的弱监督学习方法通过合成数据和巧妙的伪标注更新以及模型优化方式,做到无需人工标注真实数据的字符边界框即可训练模型预测文本的单字切分和识别结果,极大地降低了模型实际落地的成本。
2.2 基于切分的手写中文文本识别网络
基于切分的手写中文文本识别网络的结构借鉴了参考文献[1]中提出的模型。模型输入首先经过多个残差模块提取特征,再分为三路分别得到字符边界框分支的特征
2.3 语义正则化
如上节中的图2所示,识别模型采用全卷积网络的形式实现,缺少CTC/Attention方法中常采用的BLSTM层,因而无法获取上下文的关联信息。因此,如图3所示,文章提出了语义正则化方法。
在训练过程中,该方法于字符分类特征
在推理过程中,删除额外的BLSTM层和字符分类层,采用原有的直接基于字符分类特征
2.4 弱监督学习
弱监督学习的流程如图1(c)所示。模型首先采用简单的合成数据进行预训练,使得模型具有一定的定位和识别字符的能力,然后再采用仅有文本标注的真实数据进行训练,流程如下:
(1)对于真实数据,模型预测出多个字符的边界框和识别结果。文章中观察到,识别正确的字符通常预测的边界框也较为准确。因此通过计算识别结果和标注文本的编辑距离,得出两者中字符的对应关系,进一步得到识别正确的字符(红色的字符)。
(2)采用正确识别的字符的边界框(红色的边界框)对伪边界框标注进行更新。如果现有的伪边界框标注中已经存在该字符的伪标注,则将伪边界框标注更新为现有的伪边界框和新预测的边界框的加权和(权重基于二者的置信度计算),反之则将新预测的边界框直接复制为伪边界框。
三、实验
3.1 数据集
实验采用的真实数据集包括脱机手写中文数据集CASIA-HWDB、联机手写中文数据集CASIA-OLHWDB、ICDAR2013比赛测试集(包含脱机和联机数据)、复杂场景手写中文数据集SCUT-HCCDoc和场景中文数据集ReCTS。
实验采用的合成数据使用简单的将单字数据拼接在白色背景上的方法,无需复杂的数据合成和渲染算法,如图4所示。对于CASIA-HWDB和CASIA-OLHWDB,采用独立于文本行数据的同分布单字数据进行合成。对于SCUT-HCCDoc和ReCTS,采用字体文件和白色背景进行简单地合成。
3.2 ICDAR2013脱机比赛测试集。
该方法在ICDAR2013脱机比赛测试集上的实验结果如表1所示,可视化结果如图5所示。
3.3 ICDAR2013联机比赛测试集
该方法在ICDAR2013联机比赛测试集上的实验结果如表2所示,可视化结果如图6所示。
表2 ICDAR2013联机比赛测试集实验结果
3.4 SCUT-HCCDoc数据集
该方法在SCUT-HCCDoc数据集上的实验结果如表3所示,可视化结果如图7所示。
表3 SCUT-HCCDoc数据集实验结果
3.5 ReCTS数据集
该方法在ReCTS数据集上的实验结果如表4所示,可视化结果如图8所示
表4 ReCTS数据集实验结果
3.6 与CTC/Attention方法的比较
该方法与CTC/Attention方法在精度和速度上的比较如表5所示。可以看出,该方法在精度和速度上均由于目前流行的CTC/Attention方法。
表5 与CTC/Attention方法的在精度和速度上的比较
四、总结及讨论
五、相关资源
论文地址:https://ieeexplore.ieee.org/document/9695187
参考文献
[1]Dezhi Peng, et al. “A fast and accurate fully convolutional network for end-to-end handwritten Chinese text segmentation and recognition.” Proceedings of International Conference on Document Analysis and Recognition. 2019.
撰稿:彭德智
编排:高 学
审校:殷 飞
发布:金连文
免责声明:(1)本文仅代表撰稿者观点,撰稿者不一定是原文作者,其个人理解及总结不一定准确及全面,论文完整思想及论点应以原论文为准。(2)本文观点不代表本公众号立场。
往期精彩内容回顾
[ECCV 2022 oral]|Language Matters:面向场景文字检测和端到端识别的弱监督的视觉-语言预训练方法
[ACM MM 2022] DiT: 基于Transformer的文档图像自监督预训练方法
[IJCAI 2022] C3-STISR: 基于三重线索引导的场景文本图像超分辨率方法(有源码)
[CVPR 2022]基于语法感知网络的手写数学公式识别(已开源)
[ACM MM 2022] 解耦检测与识别:单阶段自依赖场景文本识别器
[ECCV 2022] CoMER: 基于Transformer与覆盖注意力机制建模的手写数学公式识别(已开源)
[ECCV 2022] 场景文字端到端识别中的全局到局部注意
[ECCV2022] MGP-STR:一种基于视觉Transformer的多粒度文字识别方法(已开源)
[IEEE TMM 2022] |手写汉字纠错的树结构分析网络
[SIGGRAPH 2022] 利用真实数据来提升文档图像矫正性能(有源码)
欢迎加入中国图象图形学学会!(附入会攻略)
扫码关注,获取最新OCR资讯